更小更强大的 GPT-4o mini 背后,AI 模型的未来不再是越大越好
更小更强大的 GPT-4o mini 背后,AI 模型的未来不再是越大越好不是大模型用不起,而是小模型更有性价比。
不是大模型用不起,而是小模型更有性价比。
Meta 发布 Llama 3.1 405B,开放权重大模型的性能表现首次与业内顶级封闭大模型比肩,AI 行业似乎正走向一个关键的分叉点。扎克伯格亲自撰文,坚定表明「开源 AI 即未来」,再次将开源与封闭的争论推向舞台中央。
最近,Latent Space发布的播客节目中请来了Meta的AI科学家Thomas Scialom。他在节目中揭秘了Llama 3.1的一些研发思路,并透露了后续Llama 4的更新方向。
最近两款大型 AI 模型相继发布。
用来运行 Llama 3 405B 优势明显。
Llama 3.1 405B巨兽开源的同时,OpenAI又抢了一波风头。从现在起,每天200万训练token免费微调模型,截止到9月23日。
紧跟着Meta的重磅发布,Mistral Large 2也带着权重一起上新了,而且参数量仅为Llama 3.1 405B的三分之一。不仅在编码、数学和多语言等专业领域可与SOTA模型直接竞争,还支持单节点部署。
AI 竞赛正以前所未有的速度加速,继 Meta 昨天推出其新的开源 Llama 3.1 模型之后,法国 AI 初创公司 Mistral AI 也加入了竞争。
Llama 3.1 405B“最强模型”宝座还没捂热乎,就被砸场子了——
Llama 3.1发布了,扎克伯格的下一步是什么?